Easy PixelCNN with tfprobability
PixelCNN 是一种深度学习架构(或架构包),旨在生成高度逼真的图像。要使用它,无需对 arXiv 论文进行逆向工程或搜索参考实现:TensorFlow Probability 及其 R 包装器 tfprobability 现在包含一个 PixelCNN 分布,可用于以可参数化的方式训练直接定义的神经网络。
Hacking deep learning: model inversion attack by example
与其他应用程序相比,深度学习模型似乎不太可能成为隐私攻击的受害者。但是,存在确定实体是否在训练集中使用的方法(称为成员推理的对抗性攻击),并且“模型反转”下包含的技术允许仅根据模型输出(有时是上下文信息)重建原始数据输入。这篇文章展示了模型反转的端到端示例,并探讨了使用 TensorFlow Privacy 的缓解策略。
Towards privacy: Encrypted deep learning with Syft and Keras
深度学习与隐私保护并非不可调和。联合学习支持设备上的分布式模型训练;加密使模型和梯度更新保持私密;差分隐私可防止训练数据泄露。如今,私密且安全的深度学习是一种新兴技术。在这篇文章中,我们介绍了 Syft,这是一个与 PyTorch 和 TensorFlow 集成的开源框架。在一个示例用例中,我们从 Keras 模型中获得私密预测。
sparklyr 1.2: Foreach, Spark 3.0 and Databricks Connect
新的 sparklyr 版本现已推出。此 sparklyr 1.2 版本具有新功能,例如对 Databricks Connect 的支持、用于“foreach”包的 Spark 后端、与 Spark 3.0 预览版配合使用的互操作改进,以及许多错误修复和解决用户可见痛点的改进。
A first look at federated learning with TensorFlow
“联合学习”一词是为了描述一种分布式模型训练形式而创造的,其中数据保留在客户端设备上,即永远不会发送到协调服务器。在这篇文章中,我们介绍了核心概念,并使用 R 运行了 TensorFlow Federated 的首次实验。
Infinite surprise - the iridescent personality of Kullback-Leibler divergence
Kullback-Leibler 散度不仅用于训练变分自动编码器或贝叶斯网络(而且不仅仅是一个难以发音的东西)。它是信息论中的一个基本概念,被广泛应用于各种应用中。最有趣的是,它并不总是与约束、正则化或压缩有关。恰恰相反,有时它与新颖性、发现和惊喜有关。
NumPy-style broadcasting for R TensorFlow users
广播,就像 Python 的科学计算库 NumPy 所做的那样,涉及动态扩展形状,以便可以将不同大小的数组传递给需要一致性的操作 - 例如逐元素添加或乘法。在 NumPy 中,广播的工作方式是精确指定的;同样的规则适用于 TensorFlow 操作。对于偶尔查阅 Python 代码的任何人,这篇文章都力求解释清楚。
First experiments with TensorFlow mixed-precision training
上周发布的 TensorFlow 2.1 允许进行混合精度训练,利用最新的 NVidia GPU 中提供的 Tensor Cores。在这篇文章中,我们报告了第一批实验结果,并提供了有关这一切的背景信息。
Differential Privacy with TensorFlow
差异隐私保证数据库查询的结果基本上与单个个体在数据中的存在无关。应用于机器学习,我们预计没有任何单个训练示例会以实质性的方式影响训练模型的参数。这篇文章介绍了 TensorFlow Privacy,这是一个基于 TensorFlow 构建的库,可用于从 R 训练差分隐私深度学习模型。
tfhub: R interface to TensorFlow Hub
TensorFlow Hub 是一个用于发布、发现和使用机器学习模型可重用部分的库。模块是 TensorFlow 图的一个独立部分,连同其权重和资产,可以在称为迁移学习的过程中在不同任务中重复使用。
Gaussian Process Regression with tfprobability
继续我们的 TensorFlow Probability (TFP) 应用之旅,在贝叶斯神经网络、汉密尔顿蒙特卡罗和状态空间模型之后,我们在这里展示了高斯过程回归的一个例子。事实上,我们看到的是一个相当“正常”的 Keras 网络,以非常常见的方式定义和训练,TFP 的变分高斯过程层发挥了所有魔力。
Getting started with Keras from R - the 2020 edition
正在寻找从 R 开始深度学习的材料?这篇文章介绍了新的 TensorFlow for R 网站上的有用教程、指南和背景文档。高级用户将找到指向最近 TensorFlow 2.0 文章中提到的新版本 2.0(或即将推出的 2.1!)功能的应用程序的指针。
Variational convnets with tfprobability
在贝叶斯神经网络中,层权重是分布,而不是张量。使用 tfprobability(TensorFlow Probability 的 R 包装器),我们可以构建具有概率层的常规 Keras 模型,从而“免费”获得不确定性估计。在这篇文章中,我们展示了如何定义、训练和从概率卷积神经网络中获得预测。
tfprobability 0.8 on CRAN: Now how can you use it?
作为 r-tensorflow 生态系统的一部分,tfprobability 是 TensorFlow Probability 的 R 包装器,TensorFlow Probability 是 Google 开发的 Python 概率编程框架。我们借 tfprobability 在 CRAN 上被接受的机会进行高级介绍,重点介绍有趣的用例和应用程序。
Innocent unicorns considered harmful? How to experiment with GPT-2 from R
社会是否准备好应对人工生成的信息(假图像、假视频、假文本)带来的挑战?虽然这篇文章不会回答这个问题,但它应该有助于形成对截至撰写本文时(2019 年秋季)假文本所造成的威胁的看法。我们介绍了 gpt2,这是一个 R 包,它包装了 OpenAI 对 GPT-2 的公开实现,GPT-2 是一种语言模型,今年早些时候,它的作品质量空前,令 NLP 社区大吃一惊。
TensorFlow 2.0 is here - what changes for R users?
TensorFlow 2.0 终于在上周发布了。作为 R 用户,我们有两种问题。首先,我的 keras 代码还能运行吗?其次,有什么变化?在这篇文章中,我们将回答这两个问题,然后介绍 r-tensorflow 生态系统中令人兴奋的新发展。